13 resultados para Armazenamento de dados

em Universidade Federal do Pará


Relevância:

30.00% 30.00%

Publicador:

Resumo:

As Redes de Sensores Sem Fio possuem capacidades limitadas de processamento, armazenamento, comunicação (largura de banda) e fonte de energia, além de possuírem características e requisitos básicos de uma RSSF como: necessidade de se auto-organizar, comunicação com difusão de curto alcance e roteamento com múltiplos saltos. Neste trabalho é proposto uma ferramenta que otimize o posicionamento e os pacotes entregues através do uso de Algoritmo Genético (AG). Para solucionar o problema de roteamento que melhore o consumo de energia e maximize a agregação de dados é proposto a utilização de lógica fuzzy no protocolo de roteamento Ad hoc Ondemand Distance Vector (AODV). Esta customização é intitulada AODV – Fuzzy for Wireless Sensor Networks (AODV-FWSN). Os resultados mostram que a solução proposta é eficiente e consegue prolongar a vida útil da RSSF e melhorar a taxa de entrega de dados quando comparado com soluções similares.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Devido às suas características únicas, redes de sensores ópticos têm encontrado aplicação em muitos campos, como em Engenharia Civil, Engenharia Geotécnica, Aeronáutica, Energia e Indústrias de Petróleo & Gás. Soluções de monitoramento baseadas nessa tecnologia têm se mostrado particularmente rentáveis e podem ser aplicadas às estruturas de grande porte, onde centenas de sensores devem ser implantados para medições a longo prazo de diferentes parâmetros mecânicos e físicos. Sensores baseados em Grades de Bragg em fibra (FBGs) são a solução mais comumente utilizada no Monitoramento de Saúde Estrutural (SHM) e as medições são realizadas por instrumentos especiais conhecidos como interrogadores ópticos. Taxas de aquisição cada vez mais elevadas têm sido possíveis utilizando interrogadores ópticos mais recentes, o que dá origem a um grande volume de dados cuja manipulação, armazenamento, gerenciamento e visualização podem demandar aplicações de software especiais. Este trabalho apresenta duas aplicações de software de tempo real desenvolvidas para esses fins: Interrogator Abstraction (InterAB) e Web-based System (WbS). As inovações neste trabalho incluem a integração, sincronização, independência, segurança, processamento e visualização em tempo real, e persistência de dados ou armazenamento proporcionados pelo trabalho conjunto das aplicações desenvolvidas. Os resultados obtidos durante testes em laboratório e ambiente real demonstraram a eficiência, robustez e flexibilidade desses softwares para diferentes tipos de sensores e interrogadores ópticos, garantindo atomicidade, consistência, isolamento e durabilidade dos dados persistidos pelo InterAB e apresentados pelo WbS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta tese apresenta duas contribuições para a interpretação geofísica, voltadas ao Método Magnetotelúrico. A primeira trata de uma nova abordagem para a interpretação MT, denominada MÉTODO DESCRITIVO-GEOLÓGICO (DesG), em alusão à incorporação explícita de informação a priori de correlação fácil com a descrição geológica tradicional. O intérprete define por meio de elementos geométricos (pontos e linhas) o arcabouço de feições geológicas bem como fornece valores de resistividade aos corpos geológicos presumidos. O método estima a distribuição de resistividade subsuperficial em termos de fontes anômalas próximas aos elementos geométricos, ajustando as respostas produzidas por estes corpos às medidas de campo. A solução obtida fornece então informações que podem auxiliar na modificação de algumas informações a priori imprecisas, permitindo que sucessivas inversões sejam realizadas até que a solução ajuste os dados e faça sentido geológico. Entre as características relevantes do método destacam-se: (i) os corpos podem apresentar resistividade maior ou menor do que a resistividade do meio encaixante, (ii) vários meios encaixantes contendo ou não corpos anômalos podem ser cortados pelo perfil e (iii) o contraste de resistividade entre corpo e encaixante pode ser abrupto ou gradativo. A aplicação do método a dados sintéticos evidencia, entre outras vantagens, a sua potencialidade para estimar o mergulho de falhas com inclinação variável, que merece especial interesse em Tectônica, e delinear soleiras de diabásio em bacias sedimentares, um sério problema para a prospecção de petróleo. O método permite ainda a interpretação conjunta das causas do efeito estático e das fontes de interesse. A aplicação a dados reais é ilustrada tomando-se como exemplo dados do COPROD2, cuja inversão produziu soluções compatíveis com o conhecimento geológico sobre a área. A segunda contribuição refere-se a desenho de experimento geofísico. Por meio de indicadores diversos, em especial a matriz densidade de informação, é mostrado que a resolução teórica dos dados pode ser estudada, que guia o planejamento da prospecção. A otimização do levantamento permite determinar os períodos e as posições das estações de medida mais adequados ao delineamento mais preciso de corpos cujas localizações são conhecidas aproximadamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nesta dissertação foi desenvolvido um estudo sobre o comportamento de uma estrutura em concreto armado submetida a elevadas variações térmicas. A estrutura analisada consiste na parede externa de um forno de cozimento de anodo utilizado na produção de Alumínio, e está submetida a variações térmicas de cerca de 125C devido à própria operação do forno. As motivações principais para o estudo foram a ocorrência de grandes deformações e o surgimento de fissuras na estrutura, o que poderia provocar a inutilização do forno. O objetivo do trabalho foi a investigação das causas destas patologias, assim como o estabelecimento de propostas para reforço da estrutura. Para isso, foram realizados estudos experimentais e computacionais do comportamento da estrutura. Inicialmente, a estrutura foi monitorada utilizando-se transdutores de deslocamento e sensores de temperatura (termopares), conectados a um sistema de aquisição de dados para obtenção e armazenamento automática das amostras ao longo do tempo. Em seguida, foram desenvolvidos modelos computacionais em Elementos Finitos com auxilio do programa computacional Algor, para determinação da distribuição de temperatura e as correspondentes tensões e deformações de origem térmica na estrutura. Nestes estudos, foram realizadas análises estacionárias e transientes de condução de calor, seguidas de análises de tensões de origem térmica. Como conclusão do estudo, tem-se que a metodologia proposta para a solução do problema foi bastante satisfatória, solucionando o problema de forma precisa, porém econômica.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Apresenta a avaliação da qualidade da Base de Dados de Informações Jornalísticas sobre a Amazônia: Ciência,Tecnologia e Meio Ambiente – BDIJAm. O estudo integra o Projeto Temáticas Amazônicas: Dossiês Comentados e Qualidade da Informação sobre Ciência, Tecnologia e Meio Ambiente, do Museu Paraense Emílio Goeldi. Foram aplicados questionários aos usuários para identificação dos pontos positivos e possíveis lacunas do serviço. Como principais resultados foram apontadas a relevância dos temas da Base e a necessidade de se desenvolver ações que visem aperfeiçoar a estrutura de recuperação da informação. Conclui que toda base de dados deve ser continuamente aperfeiçoada e os usuários consideram a BDIJam um instrumento de suma importância para a sociedade como recurso de preservação da memória social da Amazônia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Investiga a qualidade da informação e dos serviços da Base de Dados de Informações Jornalísticas sobre a Amazônia: ciência, tecnologia e meio ambiente - BDIJAm, sistematizada pelo Museu Paraense Emílio Goeldi – MPEG e pela Universidade Federal do Pará – UFPA, cujo resultado apontará caminhos para o maior benefício, por parte dos usuários, no que diz respeito ao uso, estrutura e funcionamento da BDIJAm com vistas ao melhor aproveitamento de seu conteúdo e de seus serviços. Trata da experiência no Projeto de Pesquisa Ciência e Comunidade: Comunicação e Educação para Preservação Ambiental e Cultural na Amazônia Oriental Brasileira, que originou o Sub-Projeto Temáticas Amazônicas: Dossiês Comentados e Qualidade da Informação sobre Ciência Tecnologia e Meio Ambiente. A BDIJAm representa um passo significativo para a democratização de informações estratégicas sobre a Amazônia e representa ainda a conservação e divulgação do acervo de jornais. Com parte do acervo já digitalizado, disponibiliza cerca de 20 mil registros, dos anos de 1992 a 2006 via web, sobre informações estratégicas da Amazônia, conservação e divulgação do acervo jornalístico (hemeroteca) do Museu Paraense Emílio Goeldi, além de constituir um importante recurso pedagógico não só para a formação dos professores, como também para utilização do seu acervo em sala de aula. A BDIJAm representa um passo significativo da democratização da informação sobre a Amazônia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Atualmente, é grande a preocupação com relação aos distúrbios que afetam a qualidade da energia elétrica, em especial os afundamentos de tensão, devido aos prejuízos associados aos usuários. Isto decorre da crescente presença de cargas sensíveis a estes distúrbios, principalmente nos processos industriais. Para se avaliar corretamente o problema, é fundamental dispor de estimativas confiáveis do número e das características dos afundamentos de tensão que podem afetar determinada carga ou processo. Dentro deste contexto, este trabalho propõe a implementação de uma metodologia de estimação dos afundamentos de tensão. Esta metodologia calcula a amplitude, duração e freqüência de ocorrência do fenômeno, tendo como base um estudo estatístico estocástico. Neste estudo a posição da falta ao longo das linhas é sorteada, a fim de melhor emular a aleatoriedade da ocorrência das faltas no sistema. Para avaliar a aplicabilidade da metodologia implementada, realizaram-se estudos de casos utilizando um sistema elétrico real pertencente a uma concessionária da região norte (CELPA). A análise permite afirmar que a metodologia implementada pode ser eficazmente utilizada para auxiliar engenheiros no planejamento de sistemas elétricos e no diagnóstico de problemas ocasionados por afundamentos de tensão.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As informações topográficas existentes para o território brasileiro, na escala 1:100.000, cobrem apenas 75,39% da área nacional, restando ainda imensos vazios cartográficos, principalmente na região Amazônica. Essas informações eram oriundas de métodos de restituição aerofotogramétricas, aplicados em fotos aéreas das décadas de 60 a 80. Devido à grande complexidade dos métodos empregados e a outros problemas de ordem técnico-financeira, grande parte das cartas plani-altimétricas está desatualizada, fato que compromete a utilização das mesmas. Atualmente, as informações topográficas são largamente extraídas a partir de modelos digitais de elevação, como por exemplo, as imagens do Shuttle Radar Topography Mission (SRTM). Neste trabalho, o modelo de elevação do SRTM foi analisado com base no Padrão de Exatidão Cartográfica (PEC) altimétrico, na atualização altimétrica da carta Plani-altimétrica Salinópolis do ano de 1982. A análise do PEC altimétrico do SRTM referente à região de Salinópolis, revelou que o mesmo pode ser utilizado na escala 1:50.000 classe C e escala 1:100.000 classe A. Já que as imagens SRTM são compatíveis com a escala e classe da carta Salinópolis, utilizou-se a versão original do SRTM (90 metros resolução espacial) para atualização altimétrica da carta Salinópolis e imagens TM Landsat-5, como base planimétrica, seguindo os parâmetros adotados pelo Instituto Brasileiro de Geografia e Estatística. Com a atualização da carta constatou-se várias diferenças, principalmente em relação à planimetria. A atualização das cartas é de grande importância, principalmente em regiões costeiras, devido à dinâmica e intensidade dos diferentes processos naturais e antrópicos atuantes, além disso, esta metodologia pode servir de base para a atualização de outras cartas e até mesmo a geração de novas cartas em locais de vazios cartográficos, resolvendo assim a questão da falta de informação topográfica em determinadas escalas. Palavras-chave: SRTM, atualização cartográfica, carta plani-altimétrica, Amazônia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A capacidade de processamento das instituições de pesquisa vem crescendo significativamente à medida que processadores e estações de trabalho cada vez mais poderosos vão surgindo no mercado. Considerando a melhoria de desempenho na área de redes de computadores e visando suprir a demanda por processamento cada vez maior, surgiu a ideia de utilizar computadores independentes conectados em rede como plataforma para execução de aplicações paralelas, originando assim a área de computação em grade. Em uma rede que se encontra sob um mesmo domínio administrativo, é comum que exista o compartilhamento de recursos como discos, impressoras, etc. Mas quando a rede ultrapassa um domínio administrativo, este compartilhamento se torna muito limitado. A finalidade das grades de computação é permitir compartilhamento de recursos mesmo que estes estejam espalhados por diversos domínios administrativos. Esta dissertação propõe uma arquitetura para o estabelecimento dinâmico de conexões multidomínio que faz uso da comutação de rajadas ópticas (OBS – Optical Burst Switching) utilizando um plano de controle GMPLS (Generalized Multiprotocol Label Switching). A arquitetura baseia-se no armazenamento de informações sobre recursos de grade de sistemas autônomos (AS -Autonomous Systems) distintos em um componente chamado Servidor GOBS Raiz (Grid OBS) e na utilização do roteamento explícito para reservar os recursos ao longo de uma rota que satisfaça as restrições de desempenho de uma aplicação. A validação da proposta é feita através de simulações que mostram que a arquitetura é capaz de garantir níveis de desempenho diferenciados de acordo com a classe da aplicação e proporciona uma melhor utilização dos recursos de rede e de computação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As concessionárias de energia, para garantir que sua rede seja confiável, necessitam realizar um procedimento para estudo e análise baseado em funções de entrega de energia nos pontos de consumo. Este estudo, geralmente chamado de planejamento de sistemas de distribuição de energia elétrica, é essencial para garantir que variações na demanda de energia não afetem o desempenho do sistema, que deverá se manter operando de maneira técnica e economicamente viável. Nestes estudos, geralmente são analisados, demanda, tipologia de curva de carga, fator de carga e outros aspectos das cargas existentes. Considerando então a importância da determinação das tipologias de curvas de cargas para as concessionárias de energia em seu processo de planejamento, a Companhia de Eletricidade do Amapá (CEA) realizou uma campanha de medidas de curvas de carga de transformadores de distribuição para obtenção das tipologias de curvas de carga que caracterizam seus consumidores. Neste trabalho apresentam-se os resultados satisfatórios obtidos a partir da utilização de Mineração de Dados baseada em Inteligência Computacional (Mapas Auto-Organizáveis de Kohonen) para seleção das curvas típicas e determinação das tipologias de curvas de carga de consumidores residenciais e industriais da cidade de Macapá, localizada no estado do Amapá. O mapa auto-organizável de Kohonen é um tipo de Rede Neural Artificial que combina operações de projeção e agrupamento, permitindo a realização de análise exploratória de dados, com o objetivo de produzir descrições sumarizadas de grandes conjuntos de dados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Alfa-galactosidase A (α-Gal A) humana é uma enzima lisossômica que quando deficiente causa a doença de Fabry. A doença de Fabry é uma esfingolipidose cuja principal causa de morbi-mortalidade é a insuficiência renal crônica (IRC). O objetivo deste estudo foi a implantação de um protocolo laboratorial que permita o diagnóstico da doença de Fabry em plasma e leucócitos, além da análise das características cinéticas da enzima α-Gal A em plasma e busca ativa da doença em 25 indivíduos com IRC de causa desconhecida. Também foram avaliadas a reprodutibilidade e a estabilidade do método enzimático. A padronização dos ensaios foi realizada com o substrato fluorescente 4-metilumbeliferil-α-Dgalactopiranosídeo. A reprodutibilidade foi avaliada utilizando amostras de plasma aliquotadas a 4ºC, -20ºC e -70ºC, analisadas uma vez ao mês por 6 meses e a estabilidade da fluorescência por até 24 horas após o término do ensaio enzimático. A padronização permitiu a implantação de valores de referência da α-Gal A para o estado do Pará, de 4 a 28 nmoles/h/mL (plasma) e de 20 a 96 nmoles/h/mg proteína (leucócitos). A enzima α-Gal A se mostrou termolábil, visto que com apenas 1 minuto de pré-incubação das amostras a 60ºC, sua atividade decaiu 71,09%. Com relação ao tempo de incubação, a atividade enzimática apresentou uma disposição linear crescente entre 15 a 180 minutos de incubação. A α-Gal A apresentou maior atividade no pH 4,8, o Km encontrado para a α-Gal A foi de 1,007 mM e a Vmáx foi 30,9 nmoles/h/mL. A melhor temperatura de armazenamento de plasma até o ensaio enzimático é -20ºC, onde foi observada menor variação em um período máximo de 6 meses. O método enzimático utilizado é estável, mesmo após 24 horas do término do ensaio, em temperatura ambiente. Com relação aos pacientes com IRC de causa desconhecida, todos apresentaram valor de atividade da α-Gal A dentro dos parâmetros de referência e, portanto, nenhum foi diagnosticado com doença de Fabry. O entendimento da cinética da α-Gal A e do seu comportamento in vitro possibilita um melhor diagnóstico laboratorial da doença de Fabry gerando dados para futuras comparações com indivíduos afetados por mutações nesta enzima

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O atual modelo do setor elétrico brasileiro permite igualdade de condições a todos os agentes e reduz o papel do Estado no setor. Esse modelo obriga as empresas do setor a melhorarem cada vez mais a qualidade de seu produto e, como requisito para este objetivo, devem fazer uso mais efetivo da enorme quantidade de dados operacionais que são armazenados em bancos de dados, provenientes da operação dos seus sistemas elétricos e que tem nas Usinas Hidrelétricas (UHE) a sua principal fonte de geração de energia. Uma das principais ferramentas para gerenciamento dessas usinas são os sistemas de Supervisão, Controle e Aquisição de Dados (Supervisory Control And Data Acquisition - SCADA). Assim, a imensa quantidade de dados acumulados nos bancos de dados pelos sistemas SCADA, muito provavelmente contendo informações relevantes, deve ser tratada para descobrir relações e padrões e assim ajudar na compreensão de muitos aspectos operacionais importantes e avaliar o desempenho dos sistemas elétricos de potência. O processo de Descoberta de Conhecimento em Banco de Dados (Knowledge Discovery in Database - KDD) é o processo de identificar, em grandes conjuntos de dados, padrões que sejam válidos, novos, úteis e compreensíveis, para melhorar o entendimento de um problema ou um procedimento de tomada de decisão. A Mineração de Dados (ou Data Mining) é o passo dentro do KDD que permite extrair informações úteis em grandes bases de dados. Neste cenário, o presente trabalho se propõe a realizar experimentos de mineração de dados nos dados gerados por sistemas SCADA em UHE, a fim de produzir informações relevantes para auxiliar no planejamento, operação, manutenção e segurança das hidrelétricas e na implantação da cultura da mineração de dados aplicada a estas usinas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma bancada para testes em geradores elétricos, utilizados em aerogeradores de pequeno porte. O sistema é composto basicamente por um motor de indução trifásico, que simula um rotor eólico, acoplado mecanicamente ao gerador elétrico submetido ao ensaio; um inversor de frequência, usado para variação da velocidade do motor; transdutores de grandezas elétricas, que efetuam a medição dos parâmetros de interesse (tensões e correntes instantâneas) na saída do gerador; um sensor de velocidade angular, para medição da rotação que é fornecida ao eixo do motor; um microcomputador, para monitoração e armazenamento dos parâmetros medidos, e controle do inversor de frequência, por meio de um programa computacional desenvolvido; e uma placa de aquisição de dados, que serve como interface entre os transdutores/sensores e o microcomputador. A velocidade angular fornecida ao gerador em ensaio pode ser variada conforme valores fornecidos de velocidades de vento, as quais são associadas a valores correspondentes de rotação, a fim de simular o comportamento de um rotor eólico. Dessa forma, é possível traçar a curva de potência (potência versus velocidade de vento) do gerador ensaiado e analisar seu desempenho. Apresenta-se também neste trabalho os resultados de medições realizadas na bancada, referentes aos ensaios de um gerador comercial de pequena potência (1 kW) e de outro desenvolvido em projeto de pesquisa, ambos do tipo de imã permanente com fluxo axial.